结直肠癌(CRC)是全球癌症和与癌症有关的死亡率最常见的原因之一。及时进行结肠癌筛查是早期发现的关键。结肠镜检查是用于诊断结肠癌的主要方式。然而,息肉,腺瘤和晚期腺瘤的错率仍然很高。在癌前阶段对息肉的早期发现可以帮助减少死亡率和与结直肠癌相关的经济负担。基于深度学习的计算机辅助诊断(CADX)系统可能会帮助胃肠病学家识别可能遗漏的息肉,从而提高息肉检测率。此外,CADX系统可能被证明是一种具有成本效益的系统,可改善长期结直肠癌的预防。在这项研究中,我们提出了一种基于学习的深度架构,用于自动息肉分割,称为变压器resu-net(Transresu-net)。我们提出的架构建立在带有Resnet-50作为骨架的残留块上,并利用变压器自我发项机制以及扩张的卷积。我们对两个公开息肉分割基准数据集的实验结果表明,Transresu-net获得了高度有希望的骰子得分和实时速度。在我们的性能指标中,我们得出的结论是,Transresu-NET可能是建立实时息肉检测系统的强大基准,用于早期诊断,治疗和预防结直肠癌。拟议的transun-net的源代码可在https://github.com/nikhilroxtomar/transresunet上公开获得。
translated by 谷歌翻译
Recent advances in language modeling have enabled new conversational systems. In particular, it is often desirable for people to make choices among specified options when using such systems. We address the problem of reference resolution, when people use natural expressions to choose between real world entities. For example, given the choice `Should we make a Simnel cake or a Pandan cake?' a natural response from a non-expert may be indirect: `let's make the green one'. Reference resolution has been little studied with natural expressions, thus robustly understanding such language has large potential for improving naturalness in dialog, recommendation, and search systems. We create AltEntities (Alternative Entities), a new public dataset of entity pairs and utterances, and develop models for the disambiguation problem. Consisting of 42K indirect referring expressions across three domains, it enables for the first time the study of how large language models can be adapted to this task. We find they achieve 82%-87% accuracy in realistic settings, which while reasonable also invites further advances.
translated by 谷歌翻译
A typical product or place often has hundreds of reviews, and summarization of these texts is an important and challenging problem. Recent progress on abstractive summarization in domains such as news has been driven by supervised systems trained on hundreds of thousands of news articles paired with human-written summaries. However for opinion texts, such large scale datasets are rarely available. Unsupervised methods, self-training, and few-shot learning approaches bridge that gap. In this work, we present a novel self-training approach, OpineSum, for abstractive opinion summarization. The summaries in this approach are built using a novel application of textual entailment and capture the consensus of opinions across the various reviews for an item. This method can be used to obtain silver-standard summaries on a large scale and train both unsupervised and few-shot abstractive summarization systems. OpineSum achieves state-of-the-art performance in both settings.
translated by 谷歌翻译
We consider the problem of automatically generating stories in multiple languages. Compared to prior work in monolingual story generation, crosslingual story generation allows for more universal research on story planning. We propose to use Prompting Large Language Models with Plans to study which plan is optimal for story generation. We consider 4 types of plans and systematically analyse how the outputs differ for different planning strategies. The study demonstrates that formulating the plans as question-answer pairs leads to more coherent generated stories while the plan gives more control to the story creators.
translated by 谷歌翻译
现在,整个研究社区都可以广泛使用机器学习(ML),它促进了这些新兴的数学技术在广泛学科中的新型和引人注目的应用的扩散。在本文中,我们将重点介绍一个特定的案例研究:古人类学领域,该领域旨在根据生物学和文化证据理解人类的演变。正如我们将表明的那样,ML算法的易用性以及在人类学研究界的适当使用方面缺乏专业知识,导致了整个文献中出现的基本错误应用。结果不可靠的结果不仅破坏了将ML合法纳入人类学研究的努力,而且还会对我们的人类进化和行为过去产生潜在的理解。本文的目的是简要介绍古人类学中ML的某些方式;我们还为那些与该领域完全熟悉的人提供了一些基本ML算法的调查,而该领域仍在积极发展。我们讨论了一系列的错误,错误和违反正确的ML方法方案的行为,这些方法经常在人类学文献的积累体内出现令人不安。这些错误包括使用过时的算法和实践;不适当的火车/测试拆分,样本组成和文本解释;以及由于缺乏数据/代码共享以及随后对独立复制的限制而缺乏透明度。我们断言,扩大样本,共享数据和代码,重新评估同行评审的方法,以及最重要的是,开发包括ML专家在内的跨学科团队对于将ML在人类学中纳入ML的未来研究的进步都是必要的。
translated by 谷歌翻译
传达相关和忠实信息的能力对于有条件生成的许多任务至关重要,但对于神经SEQ-seq seq模型仍然难以捉摸,这些模型的输出通常显示出幻觉,并且无法正确涵盖重要细节。在这项工作中,我们主张规划作为有用的中间表示,以使有条件的一代减少不透明和扎根。我们的作品提出了将文本计划作为一系列提问(QA)对的新概念化。我们用QA蓝图作为内容选择(即〜说什么)和计划(即〜按什么顺序)来增强现有数据集(例如,用于摘要)。我们通过利用最先进的问题生成技术并将输入输出对自动获取蓝图,并将其转换为输入 - 蓝图输出输出元组。我们开发了基于变压器的模型,每个模型都在它们如何将蓝图合并到生成的输出中(例如,作为全局计划或迭代)。跨指标和数据集的评估表明,蓝图模型比不采取计划并允许对生成输出进行更严格控制的替代方案更为事实。
translated by 谷歌翻译
社交媒体的自杀意图检测是一种不断发展的研究,挑战了巨大的挑战。许多有自杀倾向的人通过社交媒体平台分享他们的思想和意见。作为许多研究的一部分,观察到社交媒体的公开职位包含有价值的标准,以有效地检测有自杀思想的个人。防止自杀的最困难的部分是检测和理解可能导致自杀的复杂风险因素和警告标志。这可以通过自动识别用户行为的突然变化来实现。自然语言处理技术可用于收集社交媒体交互的行为和文本特征,这些功能可以传递给特殊设计的框架,以检测人类交互中的异常,这是自杀意图指标。我们可以使用深度学习和/或基于机器学习的分类方法来实现快速检测自杀式思想。出于这种目的,我们可以采用LSTM和CNN模型的组合来检测来自用户的帖子的这种情绪。为了提高准确性,一些方法可以使用更多数据进行培训,使用注意模型提高现有模型等的效率。本文提出了一种LSTM-Incription-CNN组合模型,用于分析社交媒体提交,以检测任何潜在的自杀意图。在评估期间,所提出的模型的准确性为90.3%,F1分数为92.6%,其大于基线模型。
translated by 谷歌翻译
贝叶斯优化是一种顺序设计形式:使用适当灵活的非线性回归模型理想化输入 - 输出关系;符合初始实验活动的数据;设计并优化用于选择拟合模型(例如,通过预测方程)下的下一个实验条件的标准,以实现兴趣的结果(例如最小值);在这些条件下获取输出并更新拟合后重复。在许多情况下,这种在新数据采集标准上的“内部优化”是麻烦的,因为它是非凸/高度多模态,可能是非可分子的,或者可能可能挫败数值优化器,尤其是当推理需要蒙特卡罗时。在这种情况下,在随机候选中,用离散的一个离散的一个不常见的情况并不罕见。在这里,我们提出了基于现有输入设计的Delaunay三角测量的候选者。除了详细构建这些“Tricands”之外,基于传统凸船库围绕的简单包装,我们基于所涉及的几何标准的性质促进了几个优势。然后,我们证明了与数值优化的采集和基于随机候选的替代品相比,特异性如何导致Tricands如何导致更好的贝叶斯优化性能。
translated by 谷歌翻译
背景:12个引线ECG是心血管疾病的核心诊断工具。在这里,我们描述并分析了一个集成的深度神经网络架构,从12个引导eCG分类了24个心脏异常。方法:我们提出了挤压和激发reset,以自动学习来自12个引主ECG的深度特征,以识别24个心脏病。在最终完全连接的层中,随着年龄和性别特征增强了深度特征。使用约束网格搜索设置每个类的输出阈值。为了确定为什么该模型的预测不正确,两个专家诊所人员独立地解释了一组关于左轴偏差的一次无序的ECG。结果:采用定制加权精度度量,我们达到了0.684的5倍交叉验证得分,灵敏度和特异性分别为0.758和0.969。我们在完整的测试数据中得分0.520,并在官方挑战排名中排名第21中。在一系列被错误分类的心电图中,两个临床医生和训练标签之间的协议差(临床医生1:Kappa = -0.057,临床医生2:Kappa = -0.159)。相比之下,临床医生之间的协议非常高(Kappa = 0.92)。讨论:与在相同数据上培训的模型相比,所提出的预测模型很好地对验证和隐藏的测试数据进行了良好。我们还发现培训标签的相当不一致,这可能会阻碍更准确的模型的开发。
translated by 谷歌翻译
在本文中,我们提出了一种与成对约束聚类的主动度量学习方法。该方法主动查询信息性实例对的标签,同时通过结合未标记的实例对估计底层度量,这导致更准确和有效的聚类过程。特别是,我们通过生成更多成对标签来增强查询的约束,以提供学习度量标准以增强聚类性能的附加信息。此外,我们通过顺序更新学习的度量并自适应地惩罚无关的特征来增加度量学习的鲁棒性。此外,我们提出了一种新的主​​动查询策略,通过结合邻域结构来更准确地评估实例对的信息增益,这提高了集群效率而无需额外的标记成本。理论上,我们提供了利用使用现有约束的方法使用增强查询的所提出的度量学习方法的更紧密的错误。此外,我们还使用主动查询策略而不是随机选择来研究改进。仿真设置和实际数据集的数值研究表明,当显着特征和无关的特征之间的信噪比低时,所提出的方法是特别有利的。
translated by 谷歌翻译